یک کارشناس ادعا میکند هیچ مدرکی وجود ندارد که اثبات کند مهار و ایمنسازی هوش مصنوعی ممکن است.
رومن وی یامپولسکی، یک دانشمند کامپیوتر روس از دانشگاه لوییویل، گفت که حتی کنترلهای جزئی هم برای محافظت از ما در برابر جامعهای که هوش مصنوعی در حال تغییر دادن آن است، کفایت نمیکند.
دکتر یامپولسکی گفت به منظور اطمینان از اینکه هوش مصنوعی ما را به مخاطره نمیاندازد، هیچ گزینهای نباید از روی میز حذف شود.
او گفت بعد از بررسی دقیق متون علمی موجود، که بهزودی در [قالب] کتاب منتشر میشود، به این نتیجه رسیده است.
دکتر یامپولسکی در بیانیهای گفت: «ما با رویدادی تقریبا حتمی مواجهیم که احتمال دارد فاجعهای وجودی پدید آورد. بیدلیل نیست که خیلیها این را مهمترین مشکل بشریت تا به امروز قلمداد میکنند.»
«نتیجه [این رویداد] میتواند شکوفایی یا انقراض باشد و سرنوشت جهان نامعلوم است.»
پژوهشهای مربوط به آن کتابــ هوش مصنوعی (AI): توضیحناپذیر، پیشبینیناپذیر، مهارناپذیرــ نشان داد که «هیچ مدرک» و «هیچ دلیلی» وجود ندارد که نشان دهد میتوان مشکل هوش مصنوعی مهارناپذیر را واقعا حل کرد.
Read More
This section contains relevant reference points, placed in (Inner related node field)
او میگوید از آنجا که به نظر میرسد مهار کامل هیچ هوش مصنوعی میسر نیست، مهم است که «برای ایمنی در مقابل هوش مصنوعی تلاشی چشمگیر» صورت بگیرد تا مطمئن شویم در حد امکان امن است.
اما حتی در این صورت، ممکن است محافظت از جهان در برابر آن مخاطرات ممکن نباشد: چرا که با افزایش توانایی هوش مصنوعی، فرصتهای بیشتری برای نقص ایمنی پدید میآید، بنابراین امکان محافظت در برابر هر خطری امکانپذیر نخواهد بود.
افزون بر این، بسیاری از این سامانههای هوش مصنوعی نمیتوانند توضیح دهند چگونه به آن نتایج رسیدهاند. چنین فناوری اکنون در سامانههایی همچون مراقبتهای بهداشتی و بانکداری کاربرد داردــ اما ممکن است نتوانیم بفهمیم آن تصمیمهای مهم واقعا چگونه اتخاذ شدهاند.
دکتر یامپولسکی در بیانیهای گفت: «چنانچه به پذیرش پاسخهای بدون توضیح هوش مصنوعی عادت کنیم و آن را از اساس به مثابه یک سیستم اوراکل (Oracle system) [سیستم مدیریت پایگاه داده با ساختاری قدرتمند که از پایگاههای داده به صورت همزمان پشتیبانی میکند] در نظر بگیریم، نمیتوانیم بگوییم آیا دارد پاسخهای اشتباه یا دستکاریشده میدهد یا خیر.»
او تاکید کرد حتی سیستمی که دقیقا برای پیروی از دستورهای انسانی ساخته شده، ممکن است با مشکل مواجه شود: ممکن است آن دستورها همدیگر را نقض کنند، سیستم ممکن است آنها را اشتباه تفسیر کند یا ممکن است از آن سوءاستفاده شود.
اگر از هوش مصنوعی به شکل مشاورهای استفاده کنیم و تصمیمگیرنده انسان باشد، میتوان جلو این امر را گرفت. اما [هوش مصنوعی] برای این کار به ارزشهای برتر متمایزی [که به طور خاص برای آن تعریف شده باشند] نیاز دارد تا به بشر درباره آن مشاوره بدهد.
دکتر یامپولسکی گفت: «تناقض هوش مصنوعی همسوشده با ارزشهای [انسانی] این است که شخصی که بهصراحت به سیستم هوش مصنوعی اجرای کاری را دستور میدهد، جواب نه بگیرد؛ در حالی که این سیستم تلاش میکند آنچه را شخص واقعا میخواهد انجام بدهد. یا از انسانمدار بودن محافظت میشود یا احترام [به هوش مصنوعی به عنوان یک واحد مستقل]، اما هر دو با هم نمیشود.»
© The Independent